1 Introducción

Este documento es la memoria de nuestra práctica para la asignatura Aprendizaje Computacional de la Mención en Computación del Grado de Informática de la Universidad de Murcia.

El proyecto consiste en el estudio de diferentes modelos de aprendizaje automático. Para ello, se ha utilizado la base de datos Credit Approval de UC Irvine Machine Learning Repository, que contiene información sobre la concesión o denegación de créditos bancarios.

En primer lugar, se ha llevado a cabo un análisis exploratorio de la base de datos. Hemos identificado atributos numéricos y categóricos y hemos renombrado las columnas según la información que hemos encontrado en un repositorio de Kaggle. Hemos proseguido con una serie de análisis monovariable y multivariable discriminando entre créditos concedidos y denegados. Esto nos ha permitido hacernos una idea de la relación entre los diferentes atributos. Para cerrar esta sección, hemos probado un Análisis de Componentes Principales (PCA) para tener una referencia sencilla con la que comparar los modelos de aprendizaje.

Después del análisis, hemos probado diversos modelos de clasificación supervisada utilizando el lenguaje R y la librería caret, aplicando técnicas de preprocesado, ajuste de hiperparámetros (((y evaluación cruzada))). El dataset se ha dividido en datos de entrenamiento y datos de test para comprobar la eficacia de los modelos. En total, se han probado cuatro algoritmos representativos de distintos paradigmas de aprendizaje automático.

2 Carga y preparación de datos

Comenzamos instalando las librerías de R necesarias para la elaboración de la práctica: - caret (Classification And REgresion Training): paquete para entrenar modelos de machine learning en R. Facilita, entre otros, el preprocesado de datos, la división de conjuntos de train/test, el ajuste de hiperparámetros… - tidyverse: colección de paquetes para ciencia de datos. Permite manipulación de datos, lectura de archivos y creación de gráficos. - ggplot2: creación de gráficos. - gridExtra: permite combinar varios ggplot en una sola figura.

También cargamos el dataset y vemos su contenido. Observamos una tabla de 690 filas y 16 columnas. Las columnas V1, V4, V5, V6, V7, V9, V10, V12, V13 y V16 contienen caracteres, lo que nos indica que son categóricas. El resto de columnas son numéricas.

if (!requireNamespace("caret", quietly = TRUE)) {
  install.packages("caret")
}

if (!requireNamespace("tidyverse", quietly = TRUE)) {
  install.packages("tidyverse")
}
if (!requireNamespace("ggplot2", quietly = TRUE)) {
  install.packages("ggplot2")
}
if (!requireNamespace("gridExtra", quietly = TRUE)) {
  install.packages("gridExtra")
}
if (!requireNamespace("GGally", quietly = TRUE)) {
  install.packages("GGally")
}


library(caret)
library(tidyverse)
library(ggplot2)
library(gridExtra)
library(GGally)

# Cargar dataset
url <- "https://archive.ics.uci.edu/static/public/27/credit+approval.zip"

# Download and unzip the dataset
temp <- tempfile()
download.file(url, temp)
unzip(temp, exdir = "./credit")
unlink(temp)  # Remove temporary file

credit <- read.table("./credit/crx.data", sep = ",", na.strings ="?")

summary(credit)
##       V1                  V2              V3              V4           
##  Length:690         Min.   :13.75   Min.   : 0.000   Length:690        
##  Class :character   1st Qu.:22.60   1st Qu.: 1.000   Class :character  
##  Mode  :character   Median :28.46   Median : 2.750   Mode  :character  
##                     Mean   :31.57   Mean   : 4.759                     
##                     3rd Qu.:38.23   3rd Qu.: 7.207                     
##                     Max.   :80.25   Max.   :28.000                     
##                     NA's   :12                                         
##       V5                 V6                 V7                  V8        
##  Length:690         Length:690         Length:690         Min.   : 0.000  
##  Class :character   Class :character   Class :character   1st Qu.: 0.165  
##  Mode  :character   Mode  :character   Mode  :character   Median : 1.000  
##                                                           Mean   : 2.223  
##                                                           3rd Qu.: 2.625  
##                                                           Max.   :28.500  
##                                                                           
##       V9                V10                 V11           V12           
##  Length:690         Length:690         Min.   : 0.0   Length:690        
##  Class :character   Class :character   1st Qu.: 0.0   Class :character  
##  Mode  :character   Mode  :character   Median : 0.0   Mode  :character  
##                                        Mean   : 2.4                     
##                                        3rd Qu.: 3.0                     
##                                        Max.   :67.0                     
##                                                                         
##      V13                 V14            V15               V16           
##  Length:690         Min.   :   0   Min.   :     0.0   Length:690        
##  Class :character   1st Qu.:  75   1st Qu.:     0.0   Class :character  
##  Mode  :character   Median : 160   Median :     5.0   Mode  :character  
##                     Mean   : 184   Mean   :  1017.4                     
##                     3rd Qu.: 276   3rd Qu.:   395.5                     
##                     Max.   :2000   Max.   :100000.0                     
##                     NA's   :13

3 Análisis Exploratorio de Datos (EDA)

La primera labor que debemos llevar a cabo al empezar a trabajar con un dataset desconocido es entender la información que este contiene. En esta fase, conocida como Análisis Exploratorio de Datos, llevaremos a cabo las siguientes tareas: - Etiquetado de los atributos: en vista de la ausencia de etiquetas interpretables para los atributos del dataset, en esta primera etapa hemos buscado entender el significado de cada uno de ellos y renombrarlos de manera más intuitiva. - Análisis monovariable: a continuación, hemos analizado las distribuciones seguidas por cada uno de los atributos, estudiando también sus valores máximos, mínimos, medias y cuartiles. - Analísis multivariable: finalmente, hemos realizado un estudio de cómo distintos atributos se relacionan entre sí.

3.1 Etiquetado de los atributos

En un primer momento, intentamos averiguar los significados de los campos de forma manual. Conseguimos deducir que el atributo ’V2 representa la edad del solicitante, percatándonos de que los decimales correspondían con múltiplos de 1/12 (por ejemplo, el valor 34.083 se corresponde con la edad de 34 años y 1 mes).

Otro campo que pudimos deducir fue el de Ingresos (V15), basándonos en la distribución que tomaban sus valores (y que veremos más adelante).

Finalmente, decidimos investigar en foros online para buscar el significado del resto de atributos. Ahí es cuando encontramos el siguiente proyecto de Kaggle.

Con esta información, renombramos las columnas:

colnames(credit)[colnames(credit) == "V1"] ="Sexo"
colnames(credit)[colnames(credit) == "V2"] ="Edad"
colnames(credit)[colnames(credit) == "V3"] ="Deuda"
colnames(credit)[colnames(credit) == "V4"] ="Estado_civil"
colnames(credit)[colnames(credit) == "V5"] ="Es_cliente"
colnames(credit)[colnames(credit) == "V6"] ="Nivel_educativo"
colnames(credit)[colnames(credit) == "V7"] ="Etnia"
colnames(credit)[colnames(credit) == "V8"] ="Anos_cotizados"
colnames(credit)[colnames(credit) == "V9"] ="Impago_previo"
colnames(credit)[colnames(credit) == "V10"] ="Trabaja"
colnames(credit)[colnames(credit) == "V11"] ="Calificacion_crediticia"
colnames(credit)[colnames(credit) == "V12"] ="Licencia_de_conducir"
colnames(credit)[colnames(credit) == "V13"] ="Ciudadano"
colnames(credit)[colnames(credit) == "V14"] ="Codigo_postal"
colnames(credit)[colnames(credit) == "V15"] ="Ingresos"
colnames(credit)[colnames(credit) == "V16"] ="Aprobado"

También distinguimos entre campos categóricos y numéricos. Los datos categóricos se deben tratar como el tipo factor. Algunos campos numéricos conviene visualizarlos en escala logarítmica.

campos = 1:15
campos_numericos = c(2, 3, 8, 11, 14, 15)
campos_log = c(8, 11, 15)
campos_no_log = setdiff(campos_numericos, campos_log)
campos_categoricos = setdiff(campos, campos_numericos)
#campos_categoricos = c("Sexo", "Estado_civil", "Es_cliente", "Nivel_educativo", "Etnia", "Impago_previo", "Trabaja", "Licenc", "Ciudadano", "Aprobado") #nolint
credit[campos_categoricos] <- lapply(credit[campos_categoricos], FUN = factor)
lapply(credit[campos_categoricos], FUN = levels)
## $Sexo
## [1] "a" "b"
## 
## $Estado_civil
## [1] "l" "u" "y"
## 
## $Es_cliente
## [1] "g"  "gg" "p" 
## 
## $Nivel_educativo
##  [1] "aa" "c"  "cc" "d"  "e"  "ff" "i"  "j"  "k"  "m"  "q"  "r"  "w"  "x" 
## 
## $Etnia
## [1] "bb" "dd" "ff" "h"  "j"  "n"  "o"  "v"  "z" 
## 
## $Impago_previo
## [1] "f" "t"
## 
## $Trabaja
## [1] "f" "t"
## 
## $Licencia_de_conducir
## [1] "f" "t"
## 
## $Ciudadano
## [1] "g" "p" "s"
#pasamos el campo aprobado también a factor y renombramos sus valores
credit <- credit %>%
  mutate(Aprobado = factor(Aprobado, levels = c("+", "-"), labels = c("Aprobado", "Rechazado")))

Añadimos los valores que faltan que pueden tomar algunas de las variables, en este caso a la variable estado civil le falta el valor “t”.

levels(credit$Estado_civil) <- c(levels(credit$Estado_civil), "t")

Para c da uno de los predictores categóricos, hemos rep – ¿Cu´antos ejemplos y variables predictorastiene el conjunto de datos? Distingue a las num´ericas de las categ´oricas. – Para cada predictor categ´orico, reporta, de la mejor forma posible, la distribuci´on de valores y com´entalo brevemente. – Para cada predictor num´erico, reporta m´ınimo, m´aximo, el primer cuartil, el tercer cuartil, media y mediana. Indica si la variable sigue o no una distribuci´on normal. – Responde, mediante una sola l´ınea de c´odigo en R, si el conjunto de datos tiene valores nulos y cu´antos nulos por columna. ∗ ¿Existe alguna columna digna de menci´on? ∗ Elabora una estrategia para el tratamiento de datos nulos y apl´ıcala en el resto de la pr´actica. – Representa las posibles relaciones de la variable de clase, de forma individual, con cada una de los predictores, haciendo uso de alg´un gr´afico con el mecanismo de las facetas (mostrar varios gr´aficos agrupados por alguna caracter´ıstica), y comenta los resultados. – Explora si el an´alisis de componentes principales es ´util, en este problema particular, como mecan- ismo de visualizaci´on e interpretaci´on de los datos para visualizar la separabilidad de las clases y comenta c´omo interpretar´ıas los dos primeros componentes principales. Busca la visualizaci´on m´as atractiva posible. Interpreta los datos de manera detallada a la luz de lo que te sugiere el mecanismo de visualizaci´on usado. – Recuerda analizar con cierta profundidad 3 predictores individualmente (an´alisis monovariable) y realizar al menos 1 an´alisis de forma multivariable. No es necesario analizarlos todos (para esta pr´actica analizar todos es excesivo), solo los tres m´as interesantes. Si analizas m´as de los pedidos deber´ıa estar MUY JUSTIFICADO

3.2 Análisis univariable

Para llevar a cabo el análisis monovariable, distinguiremos entre los atributos numéricos y categóricos, pues la forma de tratarlos es completamente distinta.

3.2.1 Atributos numéricos

Para los atributos numéricos, es interesante como punto de partida mostrar su valor mínimo, máximo, los cuartiles, la media y la mediana.

# Tabla con los atributos
atributosNum <- credit[,c(2,3,8,11,14,15)]

summary(atributosNum)
##       Edad           Deuda        Anos_cotizados   Calificacion_crediticia
##  Min.   :13.75   Min.   : 0.000   Min.   : 0.000   Min.   : 0.0           
##  1st Qu.:22.60   1st Qu.: 1.000   1st Qu.: 0.165   1st Qu.: 0.0           
##  Median :28.46   Median : 2.750   Median : 1.000   Median : 0.0           
##  Mean   :31.57   Mean   : 4.759   Mean   : 2.223   Mean   : 2.4           
##  3rd Qu.:38.23   3rd Qu.: 7.207   3rd Qu.: 2.625   3rd Qu.: 3.0           
##  Max.   :80.25   Max.   :28.000   Max.   :28.500   Max.   :67.0           
##  NA's   :12                                                               
##  Codigo_postal     Ingresos       
##  Min.   :   0   Min.   :     0.0  
##  1st Qu.:  75   1st Qu.:     0.0  
##  Median : 160   Median :     5.0  
##  Mean   : 184   Mean   :  1017.4  
##  3rd Qu.: 276   3rd Qu.:   395.5  
##  Max.   :2000   Max.   :100000.0  
##  NA's   :13

Vamos a mostrar ahora gráficamente estos atributos, junto con un histograma que nos sirve como primera toma de contacto con la distribución que siguen dichos atributos.

# Crear una lista para guardar los histogramas
plots <- list()

for (i in campos_numericos) {
  var <- names(credit)[i]
  var_data <- na.omit(credit[[var]])
# Saltar si la columna no tiene datos suficientes
  if (length(var_data) < 2) next
  df_temp <- data.frame(valor = var_data)
  
  p <- ggplot(df_temp, aes(x = valor)) +
    geom_histogram(bins = 30, fill = "skyblue", color = "black") +
    ggtitle(var) +
    theme_minimal()
  
  plots[[var]] <- p
}

grid.arrange(grobs = plots, ncol = 3)

Claramente hay variables como la de Ingresos o Calificacion_crediticia que pierden mucha información al representarse con el histograma. Utilizando escala logarítmica se puede distinguir mejor la población:

# Crear una lista para guardar los histogramas
plots <- list()

for (i in campos_log) {
    var <- names(credit)[i]
    var_data <- na.omit(credit[[var]])
    # Saltar si la columna no tiene datos suficientes o si hay valores no positivos
    var_data_log <- var_data[var_data > 0]
    if (length(var_data_log) < 2) next
    df_temp <- data.frame(valor = log(var_data_log))
    
    p <- ggplot(df_temp, aes(x = valor)) +
        geom_histogram(bins = 30, fill = "skyblue", color = "black") +
        ggtitle(paste0(var, " (log)")) +
        theme_minimal()
    
    plots[[var]] <- p
}

grid.arrange(grobs = plots, ncol = 3)

En el caso del atributo Calificacion_crediticia, vemos que hay una gran cantidad de muestras que tienen el valor 0 en este campo. Esto se puede deber a que el banco no conoce este dato o bien que la mayor parte de la gente acaba de abrirse la cuenta del banco y de momento no tiene una calificación crediticia positiva.

También vemos una cantidad elevado de personas con cero ingresos. Igual que en el caso anterior, seguramente se deba a desconocimiento del valor, pues no es frecuente que una cantidad tan elevada de la población tenga 0 ingresos.

Ahora queremos comprobar si alguno de los atributos sigue una distribución normal. Para ello utilizamos qqplot para comparar la función de distribución de nuestros atributos con la de la distribución normal:

library(ggplot2)
library(gridExtra)

# Lista para guardar los Q-Q plots
qqplots <- list()

for (i in campos_numericos) {
  var <- names(credit)[i]
  var_data <- na.omit(credit[[i]])

  # Saltar si hay pocos datos
  if (length(var_data) < 3) next

  df_temp <- data.frame(valor = var_data)

  # Q-Q plot usando stat_qq
  p <- ggplot(df_temp, aes(sample = valor)) +
    stat_qq() +
    stat_qq_line(color = "red") +
    ggtitle(paste(var)) +
    theme_minimal()

  qqplots[[var]] <- p
}

# Mostrar todos los Q-Q plots en una cuadrícula
grid.arrange(grobs = qqplots, ncol = 3)

Llegamos a la conclusión de que ninguno de los atributos sigue una distribución normal.

La que más se acerca sería la del código postal. Esto podría tener cierto sentido debido a que la mayor parte de los solicitantes vivirán cerca del banco en cuestión. Teniendo en cuenta que lugares cercanos suelen tener códigos postales próximos, tiene mucho sentido que cuanto más nos alejamos del banco (y por consecuente de su código postal), menos solicitantes habrá.

Siguiendo el razonamiento anterior, parece convenienente comprobar si las variables que anteriormente visualizamos en escala logarítmica, siguen una distribución lognormal. Para ello simplemente repetimos el procedimiento anterior con las variables tras aplicarle el logaritmo:

library(ggplot2)
library(gridExtra)

# Lista para guardar los Q-Q plots
qqplots <- list()

for (i in campos_log) {
  var <- names(credit)[i]
  var_data <- na.omit(credit[[var]])
# Saltar si la columna no tiene datos suficientes o si hay valores no positivos
  var_data_log <- var_data[var_data > 0]
  if (length(var_data_log) < 2) next
  df_temp <- data.frame(valor = log(var_data_log))


  # Q-Q plot usando stat_qq
  p <- ggplot(df_temp, aes(sample = valor)) +
    stat_qq() +
    stat_qq_line(color = "red") +
    ggtitle(paste(var)) +
    theme_minimal()

  qqplots[[var]] <- p
}

# Mostrar todos los Q-Q plots en una cuadrícula
grid.arrange(grobs = qqplots, ncol = 3)

Vemos que estas tres variables se ajustan mucho mejor a una distribución lognormal que a una normal.

Ahora vamos a centrarnos en tres predictores en concreto: ingresos, edad y deuda.

3.2.1.1 Análisis univariable del predictor Ingresos

library(ggplot2)

# Eliminamos NA por seguridad
ingresos <- na.omit(credit$Ingresos)

# Estadísticos básicos
summary(ingresos)
##     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
##      0.0      0.0      5.0   1017.4    395.5 100000.0
sd(ingresos)
## [1] 5210.103
# Histograma y Boxplot
p1 <- ggplot(data.frame(Ingresos = ingresos), aes(x = Ingresos)) +
  geom_histogram(bins = 30, fill = "steelblue", color = "black") +
  labs(title = "Histograma de Ingresos")

p2 <- ggplot(data.frame(Ingresos = ingresos), aes(y = Ingresos)) +
  geom_boxplot(fill = "orange") +
  labs(title = "Boxplot de Ingresos")

gridExtra::grid.arrange(p1, p2, ncol = 2)

La variable Ingresos presenta una distribución altamente asimétrica, con una gran concentración de valores bajos y una cola larga hacia la derecha. Esto se confirma con el histograma y el boxplot, donde se observan muchos valores en cero y varios outliers.

# Test de Shapiro-Wilk para normalidad
shapiro.test(ingresos)
## 
##  Shapiro-Wilk normality test
## 
## data:  ingresos
## W = 0.16985, p-value < 2.2e-16
# Log-transformación (se suman +1 para evitar log(0))
log_ingresos <- log(ingresos + 1)

# Test de Shapiro-Wilk sobre log(Ingresos)
shapiro.test(log_ingresos)
## 
##  Shapiro-Wilk normality test
## 
## data:  log_ingresos
## W = 0.82425, p-value < 2.2e-16

La prueba de Shapiro-Wilk sobre los ingresos originales da como resultado un p-valor muy bajo, indicando que no siguen una distribución normal. Tras aplicar una transformación logarítmica (log(Ingresos + 1)), la distribución mejora notablemente en forma, aunque el p-valor obtenido sigue siendo muy bajo, lo que nos confirma que tampoco sigue una distribución lognormal. El Q-Q plot también muestra una mejor alineación con la recta teórica tras la transformación.

# Q-Q plot para Ingresos y log(Ingresos)
par(mfrow = c(1,2))

qqnorm(ingresos, main = "Q-Q plot Ingresos")
qqline(ingresos, col = "red")

qqnorm(log_ingresos, main = "Q-Q plot log(Ingresos)")
qqline(log_ingresos, col = "red")

Nuestra siguiente intención es comprobar si este predictor sirve como una buena primera aproximación para distinguir entre personas a las que se le concedió el crédito y a las que no.

Para ello dividimos la población total entre aprobados y no aprobados y representamos con un boxplot cada una:

# Eliminar NA
df_ingresos <- credit[!is.na(credit$Ingresos) & !is.na(credit$Aprobado), ]

# Boxplot de Ingresos por Clase
ggplot(df_ingresos, aes(x = Aprobado, y = Ingresos, fill = Aprobado)) +
  geom_boxplot() +
  labs(title = "Distribución de Ingresos según Aprobado",
       x = "Aprobado (Crédito aprobado o no)",
       y = "Ingresos") +
  theme_minimal()

Al ser la mayoría de valores muy cercanos a cero perdemos mucha información al visualizar la gráfica. No obstante sí que nos damos cuenta de que a todos los outliers (personas con ingresos muy por encima de la media) se les concede el crédito, lo que nos hace pensar que puede ser un buen predictor.

Para visualizar mejor el boxplot, transformamos los datos a escala logaritmica:

  # También puedes ver la versión log-transformada (opcional)
df_ingresos$log_ingresos <- log(df_ingresos$Ingresos + 1)

ggplot(df_ingresos, aes(x = Aprobado, y = log_ingresos, fill = Aprobado)) +
  geom_boxplot() +
  labs(title = "Distribución log(Ingresos + 1) según Aprobado",
       x = "Aprobado",
       y = "log(Ingresos + 1)") +
  theme_minimal()

En este diagrama sí que se aprecia mucho mejor que a la gente que se le concedió el crédito tiene de media muchos más ingresos, confirmando así nuestra teoría.

Podemos mostrar también las funciones de densidad para cada una de las clases, en escala logarítmica para una mejor visualización:

ggplot(df_ingresos, aes(x = log_ingresos, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  labs(title = "Distribución de log(Ingresos+1) según Aprobado",
       x = "log(Ingresos+1)",
       y = "Densidad") +
  theme_minimal()

3.2.1.2 Análisis univariable del predictor Deuda

# Eliminamos NA
deuda <- na.omit(credit$Deuda)

# Estadísticos descriptivos
summary(deuda)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##   0.000   1.000   2.750   4.759   7.207  28.000
sd(deuda)
## [1] 4.978163
# Histograma y Boxplot
p1 <- ggplot(data.frame(Deuda = deuda), aes(x = Deuda)) +
  geom_histogram(bins = 30, fill = "darkseagreen", color = "black") +
  labs(title = "Histograma de Deuda")

p2 <- ggplot(data.frame(Deuda = deuda), aes(y = Deuda)) +
  geom_boxplot(fill = "tomato") +
  labs(title = "Boxplot de Deuda")

gridExtra::grid.arrange(p1, p2, ncol = 2)

La variable Deuda presenta una distribución asimétrica, aunque menos extrema que Ingresos. El histograma muestra una acumulación de valores bajos y una cola hacia la derecha. El boxplot sugiere la presencia de varios valores atípicos por encima del tercer cuartil.

# Prueba de normalidad
shapiro.test(deuda)
## 
##  Shapiro-Wilk normality test
## 
## data:  deuda
## W = 0.83025, p-value < 2.2e-16
# Log-transformación si hay valores positivos
log_deuda <- log(deuda + 1)
shapiro.test(log_deuda)
## 
##  Shapiro-Wilk normality test
## 
## data:  log_deuda
## W = 0.96347, p-value = 4.345e-12

Ambas pruebas de Shapiro-Wilk indican que ni Deuda ni log(Deuda + 1) siguen una distribución normal. No obstante, el logaritmo ayuda a mejorar la simetría:

# Q-Q plots
par(mfrow = c(1,2))
qqnorm(deuda, main = "Q-Q plot Deuda")
qqline(deuda, col = "red")
qqnorm(log_deuda, main = "Q-Q plot log(Deuda)")
qqline(log_deuda, col = "red")

Queremos ahora ver si Deuda permite distinguir entre personas a las que se les concedió el crédito y a las que no:

df_deuda <- credit[!is.na(credit$Deuda) & !is.na(credit$Aprobado), ]
df_deuda$log_deuda <- log(df_deuda$Deuda + 1)

ggplot(df_deuda, aes(x = Aprobado, y = log_deuda, fill = Aprobado)) +
  geom_boxplot() +
  labs(title = "Distribución log(Deuda + 1) según Aprobado",
       x = "Aprobado",
       y = "log(Deuda + 1)") +
  theme_minimal()

El boxplot log-transformado permite ver que los casos aprobados tienden a tener mayor deuda, lo cual es contraintuitivo, pero puede estar relacionado con el hecho de que esas personas también tienen mayores ingresos y capacidad de pago. Este comportamiento debe analizarse junto con otros predictores.

ggplot(df_deuda, aes(x = Deuda, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  labs(title = "Distribución de Deuda según Aprobado",
       x = "Deuda",
       y = "Densidad") +
  theme_minimal()

Este gráfico muestra que, aunque las distribuciones se solapan, el grupo aprobado presenta una mayor densidad en valores altos de deuda, reforzando la idea de que tener deuda no impide ser aprobado, siempre que venga acompañada de otros factores como ingresos estables.

Podemos verlo en escala logarítmica de manera más evidente:

ggplot(df_deuda, aes(x = log_deuda, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  labs(title = "Distribución de Deuda según Aprobado",
       x = "Deuda",
       y = "Densidad") +
  theme_minimal()

3.2.2 Atributos categóricos

El estudio de campos categóricos es limitado en comparación con el de campos numéricos. Al no existir orden ni distancia entre valores de los atributos, perdemos la ayuda de la mayor parte de herramientas estadísticas. Sin embargo, esto no significa que no podamos extraer información útil de estos campos. Podemos comenzar nuetro análisis graficando un histograma de cada variable categórica.

summary(credit)
##    Sexo          Edad           Deuda        Estado_civil Es_cliente
##  a   :210   Min.   :13.75   Min.   : 0.000   l   :  2     g   :519  
##  b   :468   1st Qu.:22.60   1st Qu.: 1.000   u   :519     gg  :  2  
##  NA's: 12   Median :28.46   Median : 2.750   y   :163     p   :163  
##             Mean   :31.57   Mean   : 4.759   t   :  0     NA's:  6  
##             3rd Qu.:38.23   3rd Qu.: 7.207   NA's:  6               
##             Max.   :80.25   Max.   :28.000                          
##             NA's   :12                                              
##  Nivel_educativo     Etnia     Anos_cotizados   Impago_previo Trabaja
##  c      :137     v      :399   Min.   : 0.000   f:329         f:395  
##  q      : 78     h      :138   1st Qu.: 0.165   t:361         t:295  
##  w      : 64     bb     : 59   Median : 1.000                        
##  i      : 59     ff     : 57   Mean   : 2.223                        
##  aa     : 54     j      :  8   3rd Qu.: 2.625                        
##  (Other):289     (Other): 20   Max.   :28.500                        
##  NA's   :  9     NA's   :  9                                         
##  Calificacion_crediticia Licencia_de_conducir Ciudadano Codigo_postal 
##  Min.   : 0.0            f:374                g:625     Min.   :   0  
##  1st Qu.: 0.0            t:316                p:  8     1st Qu.:  75  
##  Median : 0.0                                 s: 57     Median : 160  
##  Mean   : 2.4                                           Mean   : 184  
##  3rd Qu.: 3.0                                           3rd Qu.: 276  
##  Max.   :67.0                                           Max.   :2000  
##                                                         NA's   :13    
##     Ingresos             Aprobado  
##  Min.   :     0.0   Aprobado :307  
##  1st Qu.:     0.0   Rechazado:383  
##  Median :     5.0                  
##  Mean   :  1017.4                  
##  3rd Qu.:   395.5                  
##  Max.   :100000.0                  
## 
categorical_vars <- names(credit)[campos_categoricos]

# Create a plotting function for categorical variables
plot_categorical <- function(var_name) {
  ggplot(credit, aes(x = .data[[var_name]])) +
    geom_bar(fill = "skyblue", color = "black") +
    labs(title = paste("Distribución de", var_name),
         x = var_name, y = "Cantidad") +
    theme_minimal() +
    theme(axis.text.x = element_text(angle = 45, hjust = 1))
}

categorical_plots <- map(categorical_vars, plot_categorical)

grid.arrange(grobs = categorical_plots, ncol = 3)

Nos gustaría también ver cómo los valores que toman estos campos afectan a la variable a predecir. Para ello podemos hacer uso de la función spineplot, que nos muestra para cada valor de una variable tanto su poblacion (ancho) como su tasa de aprobados (alto de la barra azul).

par(mfrow = c(3, 3))  #plots en cuadrícula 3x3

for (var in categorical_vars) {
  spineplot(x = credit[[var]], 
            y = credit$Aprobado,
            ylevels = c("Rechazado", "Aprobado"),
            xlab = var,
            ylab = "Resultado",
            main = paste("Aprobados por", var),
            col = c("#46cac1", "#ff8080"),
            border = c("#26958d", "#b13636"))
}

par(mfrow = c(1, 1))

Como punto de interés adicional, representemos también etnia frente a ciudadanía.

spineplot(credit$Etnia, credit$Ciudadano,
          xlab = "Etnia",
          ylab = "Es ciudadano",
          main = "Ciudadanía por Etnia",
          col = c("#aeaeae", "#848484", "#575757"))

Con los datos representados podemos realizar varias deducciones sobre el contexto del dataset y los significados de las etiquetas de algunos campos. Por ejemplo:

En el plot de etnia frente a ciudadanía, vemos que no existen grandes variaciones en las distribuciones de ciudadanía entre distintas etnias. Esto nos hace pensar que no estamos tratando con datos provenientes de un único país. Si fuese así, la etnia mayoritaria tendría probablemente un porcentaje de miembros ciudadanos muy superior al resto. Debemos suponer entonces, que aunque los datos provengan de un banco japonés, sus clientes están distribuidos por vairos países, y el campo “Es_ciudadano” hace referencia a la cuidadanía respecto al país en el que residen.

Trabaja: puesto que una persona con trabajo tiene mucha más facilidad para recibir aprobación por parte de un banco, resulta bastante claro que “t” y “f” se corresponden con tener y no tener
trabajo, respectivamente.

Impago previo: de manera bastante inmediata, el valor “f” de impago previo representa presencia de impagos por su terrible impacto en la tasa de aprobado (al contrario de lo que el nombre del campo pueda dar a entender). “t” significaría entonces ausencia de impagos. El valor de esta variable es un factor muy importante a la hora de decidir si se aprueba o no la solicitud. Tanto así que un predictor que utilice simplemente esta variable para clasificar, obtendría una tasa de aciertos de (306+284)/690 ~= 0.855, bastante cercano a lo que obtendremos con técnicas más avanzadas.

tab <- table(credit$Impago_previo, credit$Aprobado)
df_plot <- as.data.frame(tab)
names(df_plot) <- c("Impago_previo", "Aprobado", "Count")

ggplot(df_plot, aes(x = Impago_previo, y = Aprobado, fill = Count)) +
  geom_tile(color = "white") +
  geom_text(aes(label=Count), color = "black", size = 6) +
  scale_fill_gradient(low = "white", high = "steelblue") +
  labs(title = "Tabla de frecuencias de impago previo frente a aprobado",
       x = "Impago previo",
       y = "Aprobado") +
  theme_minimal(base_size = 20)

# Histogramas, summary(), boxplots, etc.

3.3 Análisis multivariable

Analizar todas las posibles agrupaciones de atributos sería una tarea inabarcable. Al contar con 16 de los mismos, existen un total de 216 = 65536 combinaciones de conjuntos. Es por ello que incluimos solo análisis de grupos de atributos que consideramos que pueden tener importancia.

Los objetivos del análisis multivariable es detectar patrones complejos no visibles en análisis univariantes. Nos puede servir posteriormente para reducir dimensiones o justificar otras decisiones de preprocesado.

3.3.1 Grid de variables numéricas

Utilizando un pairwise correlation plot con la función del paquete GGally vamos a visualizar las relaciones entre todos los pares de variables numéricas. Distinguimos entre créditos aprobados (azul) y denegados (rojo). No incluimos el código postal ya que no es un valor que mantenga un concepto de escala.

Dado que las variables Deuda, Anos_cotizados y Calificacion_crediticia presentan distribuciones muy sesgadas hacia valores bajos, aplicamos una transformación logarítmica. Así, se estabilizamos las varianzas y favorecemos el análisis de regresiones lineales.

# Función para mostrar R^2 en los paneles superiores
  cor_plus_r2_fun <- function(data, mapping, ...) {
    x <- eval_data_col(data, mapping$x)
    y <- eval_data_col(data, mapping$y)
    class_var <- data$Aprobado  # Asumimos que la clase es esta
    
    df <- data.frame(x = x, y = y, clase = class_var)
    df <- df[complete.cases(df), ]

    # Correlaciones
    r_total <- cor(df$x, df$y)
    r_plus  <- tryCatch(cor(df$x[df$clase == "Aprobado"], df$y[df$clase == "Aprobado"]), error = function(e) NA)
    r_minus <- tryCatch(cor(df$x[df$clase == "Rechazado"], df$y[df$clase == "Rechazado"]), error = function(e) NA)

    # R² global
    r2 <- tryCatch(summary(lm(y ~ x, data = df))$r.squared, error = function(e) NA)

    # Formato
    txt <- paste0(
      "Corr: ", sprintf("%.3f", r_total), "\n",
      "-: ", sprintf("%.3f", r_minus), "\n",
      "+: ", sprintf("%.3f", r_plus), "\n",
      "R²: ", sprintf("%.3f", r2)
    )

    ggplot(data = df, aes(x = x, y = y)) +
      annotate("text", x = median(df$x, na.rm = TRUE), y = median(df$y, na.rm = TRUE),
              label = txt, size = 3.5, hjust = 0.5) +
      theme_void()
  }

  # Subconjunto con las variables numéricas
  subset_credit <- credit[, c("Edad", "Deuda", "Anos_cotizados", "Calificacion_crediticia", "Ingresos", "Aprobado")]
  subset_credit$Deuda <- log10(subset_credit$Deuda + 1)
  subset_credit$Anos_cotizados <- log10(subset_credit$Anos_cotizados + 1)
  subset_credit$Ingresos <- log10(subset_credit$Ingresos + 1)
  subset_credit$Calificacion_crediticia <- log10(subset_credit$Calificacion_crediticia + 1)

  
  # Graficar con color por clase
  ggpairs(subset_credit,
          mapping = aes(color = Aprobado, alpha = 0.5),
          columns = 1:5,
          upper = list(continuous = cor_plus_r2_fun),
          lower = list(continuous = wrap("points", alpha = 0.4)),
          title = "Relaciones entre atributos numéricos")
## Warning: Removed 12 rows containing non-finite outside the scale range
## (`stat_density()`).
## Warning: Removed 12 rows containing missing values or values outside the scale range
## (`geom_point()`).
## Removed 12 rows containing missing values or values outside the scale range
## (`geom_point()`).
## Removed 12 rows containing missing values or values outside the scale range
## (`geom_point()`).
## Removed 12 rows containing missing values or values outside the scale range
## (`geom_point()`).

Como puede observarse en la matriz de correlaciones, la diagonal corresponde a las distribuciones marginales que mostrábamos en el análisis monovariable. El triángulo inferior contiene los diagramas de dispersión para cada par de variables y clase (aprovado o denegado). Por último, el triángulo superior derecho contiene los coeficientes de correlación de Pearson, tanto de las distribuciones globales como las separadas por clase.

Las correlaciones son, en su mayoría, positivas y de pequeña magnitud. Tiene sentido, por ejemplo, que a mayor edad tenga una persona, más larga sea su vida laboral. Estas correlaciones son más intensas en la clase +. Esto sugiere que los casos aprobados siguen patrones más regulares. En el caso de la relación Edad-Anos_cotizados, podríamos interpretar que a la hora de la concesión de un crédito a una persona joven, se es mas laxo con una vida laboral más corta. No obstante, si nos fijamos en los gráficos de dispersión y en el R2, podemos concluir que los datos no son los idóneos para una regresión lineal.

Como separador, el par Edad-Deuda es el peor de todos, ya que las distribuciones de ambas clases se solapan demasiado. Todos los pares en los que aparece la calificación crediticia son buenas elecciones de separadores; no por ser un buen par, sino que como discutimos en el análisis monovariable, la calificación crediticia es en sí misma un buen separador. El par Deuda-Anos_cotizados es quizá el mejor separador bidimensional de la tabla. Se puede apreciar que un corte diagonal (recta y=1.5-x) se consigue una buena separación de los puntos rojos y azules.

subset_credit$Esfuerzo_financiero <- subset_credit$Deuda + subset_credit$Anos_cotizados  + abs(subset_credit$Ingresos-1)*0.375


ggplot(subset_credit, aes(x = Esfuerzo_financiero, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  theme_minimal() +
  labs(title = "Distribución del índice combinado log10(Deuda+1) + log10(Años cotizados+1) + |Igresos-1|*0.375" ,
       x = "Índice esfuerzo financiero", y = "Densidad")

Hemos llamado a la suma de ambos atributos (en escala logarítmica) mas el término |Ingresos-1|*0.375 Esfuerzo_financiero. La distribución marginal de este nuevo valor tiende a valores cercanos a cero en el caso de los créditos denegados y a una distribución simétrica centrada a la mitad del eje. A pesar del solapamiento, el patrón sugiere que este nuevo atributo podría tener valor como variable predictiva. Podría ser interesante como incorporación a los modelos de aprendizaje.

3.3.2 Relaciones del índice crediticio

La calificación crediticia es, a priori, el mejor clasificador monovariable. No obstante, sigue habiendo unos pocos casos en los que una calificación alta no implica la concesión del crédito. En esta subsección vamos a intentar encontrar cuáles son las variables que determinan la concesión del crédito en los casos de un índice crediticio alto.

Para empezar, filtramos el dataset para contener únicamente información sobre los créditos en los que el solicitante tiene un índice crediticio superior a 3.

  credit_alto <- subset(credit, Calificacion_crediticia > 3)
  summary(credit_alto)
##  Sexo        Edad           Deuda        Estado_civil Es_cliente
##  a:54   Min.   :16.08   Min.   : 0.000   l:  0        g :133    
##  b:97   1st Qu.:24.00   1st Qu.: 1.750   u:133        gg:  0    
##         Median :33.17   Median : 5.665   y: 18        p : 18    
##         Mean   :35.43   Mean   : 6.739   t:  0                  
##         3rd Qu.:43.16   3rd Qu.:10.312                          
##         Max.   :68.67   Max.   :28.000                          
##                                                                 
##  Nivel_educativo     Etnia    Anos_cotizados   Impago_previo Trabaja
##  c      :34      v      :80   Min.   : 0.000   f: 10         f:  0  
##  q      :26      h      :40   1st Qu.: 1.000   t:141         t:151  
##  cc     :14      bb     :15   Median : 2.375                        
##  w      :13      ff     : 9   Mean   : 4.010                        
##  x      :13      z      : 4   3rd Qu.: 5.250                        
##  i      : 9      dd     : 1   Max.   :28.500                        
##  (Other):42      (Other): 2                                         
##  Calificacion_crediticia Licencia_de_conducir Ciudadano Codigo_postal  
##  Min.   : 4.000          f:82                 g:149     Min.   :  0.0  
##  1st Qu.: 6.000          t:69                 p:  0     1st Qu.:  0.0  
##  Median : 8.000                               s:  2     Median :100.0  
##  Mean   : 9.344                                         Mean   :141.4  
##  3rd Qu.:11.000                                         3rd Qu.:220.0  
##  Max.   :67.000                                         Max.   :583.0  
##                                                         NA's   :2      
##     Ingresos            Aprobado  
##  Min.   :    0.0   Aprobado :135  
##  1st Qu.:    7.5   Rechazado: 16  
##  Median :  540.0                  
##  Mean   : 1919.4                  
##  3rd Qu.: 1802.5                  
##  Max.   :51100.0                  
## 

El resultado es una tabla de 151 entradas. El perfil medio de estas solicitudes, más allá de la calificación crediticia, se deferencia del perfil general en cuatro ámbitos: - Todos tienen un puestro de trabajo. - La deuda es mayor (6.739 vs 4.759 de media). - Más años cotizados (1 en el primer cuartil vs 0.165). - Más ingresos (540 vs 5 de media).

Si repetimos la matriz de correlaciones para este dataset:

# Función para mostrar R^2 en los paneles superiores
  cor_plus_r2_fun <- function(data, mapping, ...) {
    x <- eval_data_col(data, mapping$x)
    y <- eval_data_col(data, mapping$y)
    class_var <- data$Aprobado  # Asumimos que la clase es esta
    
    df <- data.frame(x = x, y = y, clase = class_var)
    df <- df[complete.cases(df), ]

    # Correlaciones
    r_total <- cor(df$x, df$y)
    r_plus  <- tryCatch(cor(df$x[df$clase == "Aprobado"], df$y[df$clase == "Aprobado"]), error = function(e) NA)
    r_minus <- tryCatch(cor(df$x[df$clase == "Rechazado"], df$y[df$clase == "Rechazado"]), error = function(e) NA)

    # R² global
    r2 <- tryCatch(summary(lm(y ~ x, data = df))$r.squared, error = function(e) NA)

    # Formato
    txt <- paste0(
      "Corr: ", sprintf("%.3f", r_total), "\n",
      "-: ", sprintf("%.3f", r_minus), "\n",
      "+: ", sprintf("%.3f", r_plus), "\n",
      "R²: ", sprintf("%.3f", r2)
    )

    ggplot(data = df, aes(x = x, y = y)) +
      annotate("text", x = median(df$x, na.rm = TRUE), y = median(df$y, na.rm = TRUE),
              label = txt, size = 3.5, hjust = 0.5) +
      theme_void()
  }

  # Subconjunto con las variables numéricas
  subset_credit <- credit_alto[, c("Edad", "Deuda", "Anos_cotizados", "Calificacion_crediticia", "Ingresos", "Aprobado")]
  subset_credit$Deuda <- log10(subset_credit$Deuda + 1)
  subset_credit$Anos_cotizados <- log10(subset_credit$Anos_cotizados + 1)
  subset_credit$Ingresos <- log10(subset_credit$Ingresos + 1)
  subset_credit$Calificacion_crediticia <- log10(subset_credit$Calificacion_crediticia + 1)

  
  # Graficar con color por clase
  ggpairs(subset_credit,
          mapping = aes(color = Aprobado, alpha = 0.5),
          columns = 1:5,
          upper = list(continuous = cor_plus_r2_fun),
          lower = list(continuous = wrap("points", alpha = 0.4)),
          title = "Relaciones entre atributos numéricos con alta Calificacion_crediticia")

los resultados obtenidos sugieren que los ingresos del solicitante son un factor clave en la concesión o no del crédito, resultando en una denegación aquellos perfiles con unos ingresos cercanos a 10 unidades. También destaca la diferencia entre una deuda alta y baja. De hecho, si utilizamos el Esfuerzo_financiero que hemos definido antes obtenemos el siguiente resultado:

subset_credit$Esfuerzo_financiero <- abs(subset_credit$Ingresos-1)*0.375 + subset_credit$Anos_cotizados + subset_credit$Deuda


ggplot(subset_credit, aes(x = Esfuerzo_financiero, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  theme_minimal() +
  labs(title = "Distribución log10(Deuda+1) + log10(Años cotizados+1) + |Ingresos-1|*0.375",
       x = "Índice esfuerzo financiero", y = "Densidad")

La separación es aún mejor que en el caso general. Podemos ver el rendimiento de este predictor para este subdataset:

  subset_credit$Prediccion_simple <- ifelse(subset_credit$Esfuerzo_financiero > 1.6, "Aprobado", "Rechazado")
  table(Real = subset_credit$Aprobado, Predicho = subset_credit$Prediccion_simple)
##            Predicho
## Real        Aprobado Rechazado
##   Aprobado       102        33
##   Rechazado        3        13
  library(ggplot2)
  library(dplyr)

  # Crear tabla de confusión en formato largo
  conf_mat <- table(Real = subset_credit$Aprobado, Predicho = subset_credit$Prediccion_simple)
  conf_df <- as.data.frame(conf_mat)

  # Añadir etiquetas
  conf_df <- conf_df %>%
    mutate(Tipo = case_when(
      Real == "Aprobado" & Predicho == "Aprobado" ~ "Verdadero Positivo",
      Real == "Rechazado" & Predicho == "Aprobado" ~ "Falso Positivo",
      Real == "Rechazado" & Predicho == "Rechazado" ~ "Verdadero Negativo",
      Real == "Aprobado" & Predicho == "Rechazado" ~ "Falso Negativo"
    ))

  
  # Gráfico
  ggplot(conf_df, aes(x = Predicho, y = Real, fill = Freq)) +
    geom_tile(color = "white") +
    geom_text(aes(label = paste0(Freq, "\n", Tipo)), size = 4) +
    scale_fill_gradient(low = "white", high = "steelblue") +
    labs(title = "Matriz de confusión para predictor basado en esfuerzo financiero",
        x = "Predicción", y = "Clase real", fill = "Frecuencia") +
    theme_minimal()

4 Preprocesado de datos

# Preprocesado 1 y preprocesado 2 para comparar más adelante
    # Cargar índices de train
    credit.trainIdx <- readRDS("credit.trainIdx")

    # Separación de conjuntos
    credit.Datos.Train <- credit[credit.trainIdx, ]
    credit.Datos.Test <- credit[-credit.trainIdx, ]

– ¿Hay predictores que no tengan utilidad y ser´ıan eliminables? ¿Por y en base a qu´e? – ¿Qu´e predictores habr´ıa que normalizar? ¿Por qu´e? ¿Cu´al ser´ıa la estrategia de normalizaci´on en cada caso? – ¿Podr´ıa ser interesante transformar alg´un atributo o grupos de atributos en uno nuevo? ¿Por qu´e?

Explica qué transformaciones se han aplicado: - Tratamiento de valores nulos - Normalización/escalado - Codificación de variables categóricas - Creación/eliminación de variables

4.1 Tratamiento de los valores nulos

En primer lugar, veamos si hay valores nulos y cuántos hay en cada columna:

# Una sola línea para contar nulos por columna
colSums(is.na(credit))
##                    Sexo                    Edad                   Deuda 
##                      12                      12                       0 
##            Estado_civil              Es_cliente         Nivel_educativo 
##                       6                       6                       9 
##                   Etnia          Anos_cotizados           Impago_previo 
##                       9                       0                       0 
##                 Trabaja Calificacion_crediticia    Licencia_de_conducir 
##                       0                       0                       0 
##               Ciudadano           Codigo_postal                Ingresos 
##                       0                      13                       0 
##                Aprobado 
##                       0

En una gráfica podemos verlos mejor:

# Visualización de los nulos con gráfico de barras
library(ggplot2)

nulos <- colSums(is.na(credit))
nulos_df <- data.frame(Variable = names(nulos), Nulos = nulos)
nulos_df <- nulos_df[nulos_df$Nulos > 0, ]  # Solo mostrar columnas con nulos

ggplot(nulos_df, aes(x = reorder(Variable, -Nulos), y = Nulos)) +
  geom_bar(stat = "identity", fill = "tomato") +
  labs(title = "Número de valores nulos por variable",
       x = "Variable", y = "Cantidad de NA") +
  theme_minimal() +
  coord_flip()

Vemos que solo 7 de los atributos tienen valores nulos y además la cantidad de estos es muy pequeña (cercano al 1% en todos los casos).

Es interesante saber cómo se distribuyen los valores nulos a lo largo de las muestras. Para ello vamos a ver la frecuencia del número de atributos faltantes. Ya trabajamos con los datos de Train, pues no debemos modificar los datos de Test a partir de ahora.

# Número de valores NA por fila
na_por_fila <- rowSums(is.na(credit.Datos.Train ))

# Observaciones con al menos un NA
con_na <- na_por_fila[na_por_fila > 0]
length(con_na)  # ¿Cuántas observaciones tienen al menos un NA?
## [1] 37
# Tabla resumen
table(con_na)
## con_na
##  1  2  3  5 
## 27  2  2  6
# Histograma: cuántos atributos faltan por observación (entre las que tienen algún NA)
library(ggplot2)

ggplot(data.frame(Faltantes = con_na), aes(x = Faltantes)) +
  geom_bar(fill = "steelblue") +
  labs(title = "Nº de atributos faltantes por observación",
       x = "Cantidad de NA",
       y = "Frecuencia") +
  theme_minimal()

Vemos que a la mayoría de muestras con valores NA solo les falta un valor. Sin embargo, también es importante destacar que hay 6 muestras a las cuales les faltan 5 valores.

Como estrategia de limpieza, se han eliminado las observaciones del conjunto de entrenamiento que contenían más de 4 valores nulos. Esta decisión se justifica por el hecho de que esas observaciones presentan información muy incompleta, y su imputación generaría más ruido que beneficio. El resto de las observaciones, con pocos valores faltantes, se conservarán y se decidirá si se inputan o no posteriormente.

# Eliminar observaciones con más de 4 atributos faltantes
credit.Datos.Train <- credit.Datos.Train[na_por_fila <= 4, ]

# Verificamos tamaño tras limpieza
nrow(credit.Datos.Train)
## [1] 547

Los valores nulos deben tratarse adecuadamente antes de entrenar modelos de aprendizaje automático. Las posibles estrategias incluyen:

  • Eliminación de filas: útil si el número de nulos es pequeño y su eliminación no reduce significativamente el tamaño del dataset.

  • Imputación por la media/mediana/moda: recomendable para variables numéricas si el porcentaje de nulos es moderado.

  • Imputación por valor más frecuente: útil en variables categóricas con pocos niveles.

  • Modelado de imputación: usar modelos predictivos (por ejemplo mice, missForest) para estimar los valores faltantes, aunque es más costoso computacionalmente.

En nuestro caso, es probable que la mejor opción sea simplemente eliminar las filas con datos faltantes, pues como hemos visto en la gráfica anterior, hay muy pocos valores nulos en comparación con el número total de muestras que disponemos.

4.1.1 Creación y análisis del predictor DeudaRelativa

Hemos pensado en crear la variable DeudaRelativa, que creemos que tiene más sentido que la variable Deuda, pues no es tan importante la deuda que tengas, sino cómo de grande es esta deuda comparada con tus ingresos.

# Crear la nueva variable
credit.Datos.Train$DeudaRelativa <- log(1 + credit.Datos.Train$Deuda / (credit.Datos.Train$Ingresos + 1))

# Boxplot de DeudaRelativa según Aprobado
ggplot(credit.Datos.Train, aes(x = Aprobado, y = DeudaRelativa, fill = Aprobado)) +
  geom_boxplot() +
  labs(title = "Relación Deuda / Ingresos según Aprobación",
       x = "Aprobado",
       y = "DeudaRelativa") +
  theme_minimal()

# Gráfico de densidad por clase
ggplot(credit.Datos.Train, aes(x = DeudaRelativa, fill = Aprobado)) +
  geom_density(alpha = 0.5) +
  labs(title = "Distribución de DeudaRelativa por clase",
       x = "DeudaRelativa",
       y = "Densidad") +
  theme_minimal()

Tanto el boxplot como la función de densidad muestran que los casos aprobados suelen tener una deuda relativa menor, lo que es coherente con que los prestamistas aprueben más fácilmente a quienes tienen un endeudamiento controlado respecto a sus ingresos.

Durante el entrenamiento de los modelos comprobaremos si la inclusión de esta variable reporta alguna mejoría respecto a usar únicamente la deuda bruta.

5 Modelado y entrenamiento

– ¿Por qu´e has escogido estudiar ´este o aquel modelo frente a otros potencialmente alternativos? – ¿Has identificado y explicado cada uno de los hiper-par´ametros de configuraci´on a explorar de los modelos escogidos (m´ınimo los que explora caret para ese modelo)? – ¿Por qu´e has escogido probar esos valores espec´ıficos de ´este o aqu´el hiperpar´ametro? – ¿Has experimentado con hiperpar´ametros “ocultos” que no ofrece directamente caret? P.e. el par´ametro ntree de Random Forest (la implementaci´on rf solo permite modificar mtry, pero ntree es tambi´en muy influyente). Ver secci´on 11.2.5 del tutorial caretML.pdf. – ¿Has seguido alguna estrategia para la generaci´on del grid de valores de los hiperpar´ametros a explorar? ¿Las has detallado? ¿La has justificado? 10 – ¿Has hecho exploraciones m´as profundas/varios ciclos de ´este o aqu´el hiperpar´ametro afinando el grano? (P.e.: 100, 200, 300, 400, … y luego 125, 150, 175, 200, 225, 250, 275, … al detectar un pico en 200) ¿Ha funcionado el ajuste de grano m´as fino

5.1 Modelos seleccionados

Describe brevemente los 4 modelos y por qué se han escogido.

5.2 Entrenamiento de modelos

# train() para cada modelo

6 Comparación de modelos

– ¿Hay alg´un modelo mejor que los dem´as? Justif´ıcalo. – ¿Hay alg´un modelo en particular que sea mejor que otro en particular? Justif´ıcalo. – ¿En base a qu´e criterio consideras que ´este o aquel modelo es mejor? Justif´ıcalo.

# Comparar métricas: resamples(), summary(), dotplot(), etc.

6.1 Comparación con distintos preprocesados

# Comparación de un modelo entrenado con dos tipos de datos preprocesados

7 Selección del modelo final

Justifica por qué se selecciona ese modelo final y qué rendimiento tiene sobre el conjunto de test.

# predict(), confusionMatrix(), estimación de accuracy final

8 Conclusiones

Resumen de hallazgos, aprendizajes y posibles mejoras.

Puedes incluir comentarios subjetivos sobre el proceso, dificultades, o ideas para prácticas futuras.

9 Anexos

sessionInfo()
## R version 4.4.2 (2024-10-31)
## Platform: x86_64-pc-linux-gnu
## Running under: Ubuntu 24.04.1 LTS
## 
## Matrix products: default
## BLAS:   /usr/lib/x86_64-linux-gnu/openblas-pthread/libblas.so.3 
## LAPACK: /usr/lib/x86_64-linux-gnu/openblas-pthread/libopenblasp-r0.3.26.so;  LAPACK version 3.12.0
## 
## locale:
##  [1] LC_CTYPE=es_ES.UTF-8       LC_NUMERIC=C              
##  [3] LC_TIME=es_ES.UTF-8        LC_COLLATE=es_ES.UTF-8    
##  [5] LC_MONETARY=es_ES.UTF-8    LC_MESSAGES=es_ES.UTF-8   
##  [7] LC_PAPER=es_ES.UTF-8       LC_NAME=C                 
##  [9] LC_ADDRESS=C               LC_TELEPHONE=C            
## [11] LC_MEASUREMENT=es_ES.UTF-8 LC_IDENTIFICATION=C       
## 
## time zone: Europe/Madrid
## tzcode source: system (glibc)
## 
## attached base packages:
## [1] stats     graphics  grDevices utils     datasets  methods   base     
## 
## other attached packages:
##  [1] GGally_2.2.1    gridExtra_2.3   lubridate_1.9.3 forcats_1.0.0  
##  [5] stringr_1.5.1   dplyr_1.1.4     purrr_1.0.2     readr_2.1.5    
##  [9] tidyr_1.3.1     tibble_3.2.1    tidyverse_2.0.0 caret_7.0-1    
## [13] lattice_0.22-5  ggplot2_3.5.1  
## 
## loaded via a namespace (and not attached):
##  [1] gtable_0.3.6         xfun_0.49            bslib_0.8.0         
##  [4] recipes_1.3.1        tzdb_0.4.0           vctrs_0.6.5         
##  [7] tools_4.4.2          generics_0.1.3       stats4_4.4.2        
## [10] parallel_4.4.2       fansi_1.0.6          pkgconfig_2.0.3     
## [13] ModelMetrics_1.2.2.2 Matrix_1.7-1         data.table_1.16.2   
## [16] RColorBrewer_1.1-3   lifecycle_1.0.4      farver_2.1.2        
## [19] compiler_4.4.2       munsell_0.5.1        codetools_0.2-19    
## [22] htmltools_0.5.8.1    class_7.3-23         sass_0.4.9          
## [25] yaml_2.3.10          prodlim_2025.04.28   pillar_1.9.0        
## [28] jquerylib_0.1.4      MASS_7.3-64          cachem_1.1.0        
## [31] gower_1.0.1          iterators_1.0.14     rpart_4.1.23        
## [34] foreach_1.5.2        nlme_3.1-166         parallelly_1.44.0   
## [37] lava_1.8.1           ggstats_0.9.0        tidyselect_1.2.1    
## [40] digest_0.6.37        stringi_1.8.4        future_1.49.0       
## [43] reshape2_1.4.4       listenv_0.9.1        labeling_0.4.3      
## [46] splines_4.4.2        fastmap_1.2.0        grid_4.4.2          
## [49] colorspace_2.1-1     cli_3.6.3            magrittr_2.0.3      
## [52] survival_3.8-3       utf8_1.2.4           future.apply_1.11.3 
## [55] withr_3.0.2          scales_1.3.0         timechange_0.3.0    
## [58] rmarkdown_2.29       globals_0.18.0       nnet_7.3-20         
## [61] timeDate_4041.110    hms_1.1.3            evaluate_1.0.1      
## [64] knitr_1.49           hardhat_1.4.1        rlang_1.1.4         
## [67] Rcpp_1.0.13-1        glue_1.8.0           pROC_1.18.5         
## [70] ipred_0.9-15         jsonlite_1.8.9       R6_2.5.1            
## [73] plyr_1.8.9